Introducción Histórica y Teórica a la Evolución del NLP
Procesamiento de Lenguaje Natural (NLP/PLN): Es una rama fundamental de las Ciencias Computacionales y la Inteligencia Artificial que se dedica al estudio y desarrollo de sistemas que permiten a las computadoras comprender, interpretar, generar y interactuar utilizando el lenguaje humano.
Conceptualizada ~1950s
Campo amplio que busca crear sistemas capaces de simular cualquier aspecto del comportamiento inteligente humano.
Prominente ~1980s
Subcampo de la IA centrado en algoritmos que permiten a las máquinas aprender de los datos para mejorar su rendimiento sin programación explícita.
Prominente ~2010s
Subcampo del ML que utiliza Redes Neuronales Profundas con múltiples capas para modelar patrones complejos en los datos.
Prominente ~2020s
Área avanzada dentro del DL enfocada en crear modelos capaces de generar nuevos datos de manera probabilística. Los Grandes Modelos de Lenguaje (LLMs) son un ejemplo clave.
Ciencia que estudia el lenguaje humano y las lenguas (estructura, significado, evolución). Provee la base teórica sobre cómo funciona el lenguaje.
Aplica modelos (inicialmente basados en reglas lógicas y estadística) para que las computadoras procesen y comprendan el lenguaje.
Aportan las técnicas de algoritmos, estructuras de datos, ML y DL necesarias para implementar los modelos de NLP.
Contribuye en áreas como el reconocimiento del habla a partir de señales de audio.
Particularmente la psicología del lenguaje computacional, que intenta modelar los procesos mentales subyacentes a la comprensión y producción del lenguaje humano.
Romper barreras idiomáticas permitiendo la comunicación entre personas que hablan diferentes idiomas.
Ejemplo: Traducir "早安孙先生" del chino al español.
Obtener respuestas directas a preguntas formuladas en lenguaje natural.
Ejemplo: IBM Watson ganando en Jeopardy! contra campeones humanos.
Interactuar conversacionalmente con sistemas automatizados que responden a comandos y preguntas.
Ejemplo: Siri, Alexa, ChatGPT.
Extraer la esencia de documentos largos para facilitar su comprensión rápida.
Ejemplo: Resumir "El Quijote" en unos pocos párrafos.
Organizar textos por categorías específicas según su contenido.
Ejemplo: Categorizar noticias en secciones como deportes, tecnología, economía.
Identificar y extraer información específica de textos no estructurados.
Ejemplo: Obtener fechas, nombres y lugares mencionados en un artículo.
Determinar la polaridad (positiva, negativa, neutra) de opiniones en textos.
Ejemplo: Analizar reseñas de productos o comentarios en redes sociales.
Descubrir temas latentes en grandes colecciones de documentos.
Ejemplo: Identificar tendencias en miles de artículos científicos.
Se centra en las unidades básicas: las palabras o tokens. Incluye la creación de un diccionario (vocabulario), la identificación de palabras válidas, símbolos, signos de puntuación, espacios, etc. Es el punto de partida para análisis más complejos (ej. "Bag-of-Words").
Estudia la estructura interna de las palabras y cómo se forman. Implica identificar la raíz (lema) de una palabra y sus afijos (prefijos, sufijos). Ejemplo: de "gato", "gata", "gatos", "gatas", la raíz es "gat-". Esto ayuda a agrupar palabras relacionadas.
Analiza la estructura gramatical de las oraciones. Se enfoca en cómo se combinan las palabras para formar frases válidas (relación sujeto-verbo-predicado, modificadores, etc.). Estudia la jerarquía y dependencia entre palabras, a menudo representado mediante árboles sintácticos.
Busca extraer el significado de las palabras, frases y el texto en su conjunto. Es el nivel más complejo, ya que implica comprender el contexto, desambiguar significados y entender la intención detrás del lenguaje.
Los Cimientos Teóricos
Desarrollo de la lógica matemática (Hilbert, Gödel), la teoría de la computación (Turing) y los modelos probabilísticos (Markov), que sentaron las bases matemáticas y conceptuales.
Nacimiento de la IA y Primeros Pasos
Primeros Sistemas, Corpus y Enfoques
La Revolución de los Datos, la Web y la Probabilidad
Consolidación del Machine Learning y Big Data
La Era del Deep Learning
La Era de los Modelos Generativos y LLMs
Dartmouth Workshop 1956
Premio Turing 2018
El Procesamiento de Lenguaje Natural ha recorrido un largo camino, desde los fundamentos teóricos y los primeros sistemas basados en reglas hasta la actual era dominada por el Deep Learning y los modelos masivos basados en datos.
La disponibilidad de grandes conjuntos de datos, el aumento exponencial de la capacidad de cómputo (especialmente GPUs) y los avances en algoritmos (particularmente las redes neuronales profundas y la arquitectura Transformer) han sido los principales catalizadores de su progreso.
Hoy en día, el NLP impulsa tecnologías que están transformando la forma en que interactuamos con la información y entre nosotros, y la investigación continúa a un ritmo acelerado, especialmente en el área de los modelos generativos y la IA multimodal.